关于AI典型的生存风险(X风险)的传统论述集中在突然的,由先进的AI系统引起的严重事件,尤其是那些可能实现或超过人级的英特尔省的系统。这些事件具有严重的后果,可以导致人类的灭绝或不可逆转地削弱人类文明,以至于无法恢复。但是,这种话语通常忽略了AI X风险通过一系列较小但相互联系的破坏逐渐表现出来的严重可能性,随着时间的流逝,逐渐越过关键阈值。本文将常规的决定性AI X风险假设与累积的AI X风险假设进行了对比。虽然前者设想了以场景为特征的明显的AI接管途径,例如iOS,例如无法控制的超智能,但后者提出了一种存在生存灾难的因果途径。这涉及逐步积累关键的AI引起的威胁,例如严重的脆弱性和对经济和政治结构的全身侵蚀。累积假设表明一种沸腾的青蛙情景,其中内部AI风险慢慢融合,破坏了社会的弹性,直到触发事件导致不可逆的崩溃。通过系统分析,本文研究了这两个假设的不同假设。随后认为,累积观点可以调和对AI风险的看似不相容的观点。讨论了这些因果途径之间区分这些因果途径的含义 - 决定性和累积性对AI的治理以及长期AI安全性的含义。
主要关键词